三步玩转:如何通过Flink OceanBase CDC连接器快速查询数据
CDC (Change Data Capture,即变更数据捕获)能够帮助您监测并捕获数据库的变动。包括数据或数据表的插入、更新和删除等。CDC 将这些变更按发生的顺序完整记录下来,写入到消息中间件中,以供其他服务进行订阅及消费。您可用 CDC 提供的数据做历史库、近实时缓存、提供给消息队列(MQ),用户消费 MQ 做分析和审计等。
Flink CDC (CDC Connectors for Apache Flink) 是 Apache Flink 的一组 Source 连接器,它支持从大多数据库中实时地读取存量历史数据和增量变更数据。Flink CDC 能够将数据库的全量和增量数据同步到消息队列和数据仓库中。Flink CDC 也可以用于实时数据集成,您可以使用它将数据库数据实时导入数据湖或者数据仓库。同时,Flink CDC 还支持数据加工,您可以通过它的 SQL Client 对数据库数据做实时关联、打宽、聚合,并将结果写入到各种存储中。借助 Flink OceanBase CDC 连接器,您可以使用 SQL DDL 创建一个 CDC 源来监控单个表的变化。您也可以在没有部署 Debezium 和 Apache Kafka 的情况下,在一个作业中消费多个数据库和表的变化。在没有 Flink OceanBase CDC 连接器之前,您不能做实时数据的多流 JOIN。
OceanBase 数据库的 CDC 组件主要有:obcdc(原 liboblog)、oblogmsg、oblogproxy 和oblogclient。各组件功能见下表:
NO.1
At-Least-Once 处理
OceanBase CDC 连接器是一个 Flink Source 连接器。它将首先读取数据库快照,然后再读取变化事件,并进行 At-Least-Once 处理。
OceanBase 数据库是一个分布式数据库,它的日志也分散在不同的服务器上。由于没有类似 MySQL binlog 偏移量的位置信息,OceanBase 数据库用时间戳作为位置标记。为确保读取完整的数据,liboblog(读取 OceanBase 日志记录的 C++ 库)可能会在给定的时间戳之前读取一些日志数据。因此,OceanBase 数据库可能会读到起始点附近时间戳的重复数据,从而保证了 At-Least-Once 处理。
NO.2
启动模式
配置选项 scan.startup.mode 指定 OceanBase CDC 连接器的启动模式。可用取值包括:
initial(默认):在首次启动时对受监视的数据库表执行初始快照,并继续读取最新的事务日志。 latest-offset:首次启动时,不对受监视的数据库表执行快照,仅从连接器启动时读取事务日志。 timestamp:在首次启动时不对受监视的数据库表执行初始快照,仅从指定的 scan.startup.timestamp 读取事务日志。
NO.3
消费事务日志
NO.4
DataStream Source
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.source.SourceFunction;
import com.ververica.cdc.connectors.oceanbase.OceanBaseSource;
import com.ververica.cdc.connectors.oceanbase.table.OceanBaseTableSourceFactory;
import com.ververica.cdc.connectors.oceanbase.table.StartupMode;
import com.ververica.cdc.debezium.JsonDebeziumDeserializationSchema;
public class OceanBaseSourceExample {
public static void main(String[] args) throws Exception {
SourceFunction<String> oceanBaseSource =
OceanBaseSource.<String>builder()
.configurl("127.0.0.1:2882:2881") // set root server list, OceanBase Enterprise Edition
.startupMode(StartupMode.INITIAL) // set startup mode
.username("user@test_tenant") // set cluster username
.password("pswd") // set cluster password
.tenantName("test_tenant") // set captured tenant name, do not support regex
.databaseName("test_db") // set captured database, support regex
.tableName("test_table") // set captured table, support regex
.hostname("127.0.0.1") // set hostname of OceanBase server or proxy
.port(2881) // set the sql port for OceanBase server or proxy
.logProxyHost("127.0.0.1") // set the hostname of log proxy
.logProxyPort(2983) // set the port of log proxy
.deserializer(new JsonDebeziumDeserializationSchema()) // converts SourceRecord to JSON String
.build();
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
// enable checkpoint
env.enableCheckpointing(3000);
env.addSource(oceanBaseSource).print().setParallelism(1);
env.execute("Print OceanBase Snapshot + Commit Log");
}
}
数据类型映射
当启动模式不是 INITIAL 时,连接器无法获得一个列的精度和比例。为兼容不同的启动模式,连接器不会将一个不同精度的 OceanBase 类型映射到不同的FLink 类型。例如,BOOLEAN、TINYINT(1) 或 BIT(1) 均会转换成 BOOLEAN。在 OceanBase 数据库中,BOOLEAN 等同于 TINYINT(1),所以 BOOLEAN 和 TINYINT 类型的列在 Flink 中会被映射为 TINYINT,而 BIT(1) 在 Flink 中会被映射为 BINARY(1)。
NO.1
前提条件
您已安装 OceanBase 数据库。更多信息,参考 OceanBase 数据库文档。
您已安装 Elasticsearch。更多信息,参考 Elasticsearch 文档。
您已安装 OceanBase 增量日志拉取组件 oblogproxy。更多信息,参考 oblogproxy 文档(社区版) 或 oblogproxy 文档(企业版)。
您已安装 Flink。更多信息,参考 Flink 文档。
NO.2
依赖
<dependency>
<groupId>com.ververica</groupId>
<artifactId>flink-connector-oceanbase-cdc</artifactId>
<!-- The dependency is available only for stable releases, SNAPSHOT dependency need build by yourself. -->
<version>2.2.1</version>
</dependency>
NO.3
下载 SQL 客户端 JAR 包
点击 flink-sql-connector-oceanbase-cdc-2.2.1.jar
下载 JAR 包至 <FLINK_HOME>/lib/.
说明:下载链接仅适用于稳定发行版本。
flink-sql-connector-oceanbase-cdc-XXX-SNAPSHOT 快照版本与开发分支的版本对应。要使用快照版本,您必须自行下载并编译源代码。推荐使用稳定发行版本,例如 flink-sql-connector-oceanbase-cdc-2.2.1.jar。您可以在 Maven 中央仓库中找到使用稳定发行版本。
NO.4
配置 OceanBase 数据库和 oblogproxy
1. 按照部署文档配置 OceanBase 集群。
2.在 sys 租户中,为 oblogproxy 创建用户。更多信息,参考 用户管理文档。
mysql -h${host} -P${port} -uroot
mysql> SHOW TENANT;
mysql> CREATE USER ${sys_username} IDENTIFIED BY '${sys_password}';
mysql> GRANT ALL PRIVILEGES ON *.* TO ${sys_username} WITH GRANT OPTION;
3. 为你想要监控的租户创建一个用户,这个用户用来读取快照数据和变化事件数据。
4. 获取 rootservice_list 或 config-url 的值。
如果您是社区版用户,使用以下命令:
mysql> SHOW PARAMETERS LIKE 'rootservice_list';
mysql> SHOW PARAMETERS LIKE 'obconfig_url';
NO.5
创建 OceanBase CDC 表
使用以下命令,创建 OceanBase CDC 表:
-- 每 3000 毫秒检查一次
Flink SQL> SET 'execution.checkpointing.interval' = '3s';
-- 在 Flink SQL 中创建 OceanBase 表 `orders`
Flink SQL> CREATE TABLE orders (
order_id INT,
order_date TIMESTAMP(0),
customer_name STRING,
price DECIMAL(10, 5),
product_id INT,
order_status BOOLEAN,
PRIMARY KEY (order_id) NOT ENFORCED
) WITH (
'connector' = 'oceanbase-cdc',
'scan.startup.mode' = 'initial',
'username' = 'user@test_tenant',
'password' = 'pswd',
'tenant-name' = 'test_tenant',
'database-name' = 'test_db',
'table-name' = 'orders',
'hostname' = '127.0.0.1',
'port' = '2881',
'rootserver-list' = '127.0.0.1:2882:2881',
'logproxy.host' = '127.0.0.1',
'logproxy.port' = '2983');
-- 从表 orders 中读取快照数据和 binlogs
Flink SQL> SELECT * FROM orders;
您也可以访问 Flink 官网文档,快速体验将数据从 OceanBase 导入到 Elasticsearch。更多信息,参考 Flink 官网文档。
Flink OceanBase CDC 连接器配置项
CREATE TABLE products (
tenant_name STRING METADATA FROM 'tenant_name' VIRTUAL,
db_name STRING METADATA FROM 'database_name' VIRTUAL,
table_name STRING METADATA FROM 'table_name' VIRTUAL,
operation_ts TIMESTAMP_LTZ(3) METADATA FROM 'op_ts' VIRTUAL,
order_id INT,
order_date TIMESTAMP(0),
customer_name STRING,
price DECIMAL(10, 5),
product_id INT,
order_status BOOLEAN,
PRIMARY KEY(order_id) NOT ENFORCED
) WITH (
'connector' = 'oceanbase-cdc',
'scan.startup.mode' = 'initial',
'username' = 'user@test_tenant',
'password' = 'pswd',
'tenant-name' = 'test_tenant',
'database-name' = 'test_db',
'table-name' = 'orders',
'hostname' = '127.0.0.1',
'port' = '2881',
'rootserver-list' = '127.0.0.1:2882:2881',
'logproxy.host' = '127.0.0.1',
'logproxy.port' = '2983');
如果对于 CDC 有疑问,欢迎底部评论区留言,有问必答!
精彩推荐
【案例】30亿数据的知识图谱如何解决“超级痛点”
【人物】DBA100人 | 台枫:DBA不仅要懂运维还得懂代码
【技术】高性能数据访问中间件 OBProxy(三):问题排查和服务运维
更多交流
扫码添加 OceanBase 联络员微信,可第一时间获晓 OceanBase 线上/线下交流活动,最新的数据库行业趋势、技术干货 。
每月阅读、分享、精选留言前3的粉丝
可获得 OceanBase 定制神秘周边一份哦!